Световни новини без цензура!
Американски компании и китайски експерти участват в тайна дипломация относно безопасността на ИИ
Снимка: ft.com
Financial Times | 2024-01-11 | 08:12:51

Американски компании и китайски експерти участват в тайна дипломация относно безопасността на ИИ

Американските компании за изкуствен интелект OpenAI, Anthropic и Cohere се ангажират в загадка дипломация с китайски специалисти по ИИ на фона на споделена угриженост за това по какъв начин мощната технология може да популяризира дезинформация и да заплашва обществено доближаване.

Според доста хора с директни знания две срещи са се състояли в Женева през юли и октомври предходната година, на които са участвали учени и политически специалисти от американските групи за ИИ, дружно с представители на университета Цинхуа и други подкрепяни от китайската страна институции.

Присъстващите споделиха, че диалозите са разрешили и на двете страни да обсъдят рисковете от нововъзникващите технологии и да насърчат вложенията в проучвания на сигурността на ИИ. Те прибавиха, че крайната цел е да се откри теоретичен път напред за безвредно създаване на по-сложна AI технология.

„ Няма метод да установим интернационалните стандарти по отношение на сигурността и привеждането в сходство с ИИ без съглашение сред този набор от участници “, сподели един човек, присъстващ на диалозите. „ И в случай че те се съгласят, ще бъде доста по-лесно да доведем и останалите. “

Неотчетените до момента диалози са необичаен знак за китайско-американско съдействие на фона на конкуренция за превъзходство сред двете огромни сили в региона на авангардни технологии като AI и квантови калкулации. В момента Вашингтон е блокирал износа на Съединени американски щати на високопроизводителни чипове, създадени от компании като Nvidia, които са нужни за създаването на комплициран AI програмен продукт.

Но тематиката за сигурността на изкуствения разсъдък се трансформира в точка на общ интерес сред разработчиците на технологията в двете страни, поради евентуалните екзистенциални опасности за човечеството.

Срещите в Женева са били проведени със знанието на Белия дом, както и на държавни чиновници на Обединеното кралство и Китай, съгласно присъстващ договарящ, който отхвърли да бъде назван.

„ Китай поддържа напъните за разискване на ръководството на AI и създаване на нужните рамки, правила и стандарти въз основа на необятен консенсус “, сподели китайското посолство в Обединеното кралство.

„ Китай е подготвен да реализира връзка, продан и практическо съдействие с разнообразни страни по отношение на световното ръководство на ИИ и да подсигурява, че ИИ се развива по метод, който напредва човешката цивилизация. “

Разговорите бяха свикани от Shaikh Group, частна посредническа организация, която улеснява разговора сред основни участници в райони на спорове, изключително в Близкия изток.

„ Видяхме опция да съберем основни артисти от Съединени американски щати и Китай, работещи по AI. Нашата съществена цел беше да подчертаем уязвимостите, рисковете и опциите, съпътстващи необятното внедряване на AI модели, които се споделят по целия свят “, сподели Салман Шейк, основен изпълнителен шеф на групата.

„ Признаването на този факт може, съгласно нас, да се трансформира в основа за взаимна научна работа, което в последна сметка ще докара до световни стандарти по отношение на сигурността на моделите на ИИ. “

Участниците в диалозите споделиха, че китайски компании за ИИ като ByteDance, Tencent и Baidu не са участвали; макар че Гугъл DeepMind беше осведомен за детайлностите на полемиките, той не участва.

По време на диалозите специалисти по изкуствен интелект от двете страни разискаха области за ангажиране в техническото съдействие, както и по-конкретни оферти за политика, които се включиха в полемиките към съвещанието на Съвета за сигурност на ООН посветено на изкуствения разсъдък през юли 2023 година, и срещата на върха за ИИ в Обединеното кралство през ноември предходната година.

Изкуствен интелектКитайски AI учени приканват за по-строго контролиране преди забележителната среща на върха

Успехът на срещите докара до проекти за бъдещи полемики, които ще се концентрират върху научни и механически оферти за това по какъв начин да се приведат в сходство системите AI със законовите кодекси и нормите и полезностите на всяко общество, съгласно присъстващия договарящ.

Има възходящи апели за съдействие сред водещите сили за справяне с възхода на ИИ.

През ноември китайски учени, работещи върху изкуствения разсъдък, се причислиха към западните учени, с цел да призоват за по-строг надзор по отношение на технологията, подписвайки изказване, което предизвестява, че напредналият AI ще съставлява „ екзистенциален риск за човечеството “ през идващите десетилетия.

Групата, включваща Андрю Яо, един от най-известните китайски компютърни учени, прикани за основаването на интернационален регулаторен орган, наложителната регистрация и одит на усъвършенствани AI системи, включването на процедури за неотложно „ изключване “ и разработчиците да изразходват 30 % от бюджета си за проучвания за сигурността на AI.

OpenAI, Anthropic и Cohere отхвърлиха да разясняват присъединяване си. Университетът Цинхуа не отговори незабавно на искане за коментар.

Източник: ft.com


Свързани новини

Коментари

Топ новини

WorldNews

© Всички права запазени!